- SYSTÈMES (SCIENCE DES)
- SYSTÈMES (SCIENCE DES)Si la science des systèmes, la systémique, est instituée en discipline scientifique autonome depuis la fin des années soixante-dix, elle doit être entendue, pratiquée, enseignée et développée dans le contexte que définit l’histoire complexe des sciences et des techniques depuis cinq siècles. Ne serait-ce que parce que, comme la plupart des nouvelles sciences qui ont émergé depuis 1945, la science des systèmes se définit par son projet plutôt que par son objet: autrement dit, elle ne peut pas être présentée hors du champ épistémologique par lequel elle se constitue et en référence auquel elle peut argumenter les énoncés qu’elle produit et transforme.Ce projet de la systémique ne s’est en effet dégagé, dans sa formulation actuelle, que récemment, au terme (provisoire?) d’un bouillonnement impressionnant de trente années (de 1945 à 1975 environ); trente années pendant lesquelles l’idée même d’une discipline autonome, traitant des systèmes en général, n’était que rarement évoquée: on parlait alors de la théorie générale des systèmes, de la théorie des systèmes, de la théorie de la commande, de la théorie du contrôle, de la théorie des systèmes vivants... On parlait aussi de cybernétique, d’informatique, de dynamique des processus irréversibles, de la théorie des systèmes évolutifs, de celle des systèmes formels, de celle des écosystèmes, etc. Au terme de la décantation par laquelle s’achève habituellement ce type de bouillonnement scientifique, on peut constater qu’un corps important de propositions n’est explicitement repris ni par la biologie, ni par l’écologie, ni par la cybernétique, ni par d’autres disciplines établies: les énoncés consacrés à l’élaboration et à la mise en œuvre des méthodes de représentation (on dira bientôt de modélisation) des phénomènes perçus ou conçus complexes – modélisation, à fin d’anticipation, d’éventuelles interventions intentionnelles et de leurs conséquences enchevêtrées. Ainsi peut se définir aujourd’hui le projet spécifique constitutif de la systémique. La science des systèmes ne doit pas prétendre être directement productrice de modèles achevés, qu’il s’agisse de modèles d’action ou de modèles de compréhension, modèles que les autres disciplines ont pour projet ou objet d’établir et de valider. La modélisation de la complexité (les méthodes de conception-construction de modèles de phénomènes perçus complexes) ne peut être réduite à la réification de tel ou tel modèle, fût-il celui du système du monde ou du système vivant.Ainsi définie, la science des systèmes se doit d’argumenter sa propre épistémologie, ne serait-ce que parce que, à l’instar des mathématiques ou des sciences de la cognition, elle revendique un statut méthodologique différent de celui des autres sciences; et elle se doit de préciser progressivement l’originalité créatrice de sa contribution par rapport aux (ou au sein des?) sciences de la cognition et aux mathématiques. Peut-être faut-il mentionner enfin que la définition constructiviste de la systémique a pu autoriser deux autres synonymes pour la désigner: la science de la complexité, et la nouvelle rhétorique; ces noms sont sans doute peu fréquemment utilisés encore, mais ils peuvent être tenus pour également légitimes a priori.Cette définition dans son contexte peut être développée par une organisation en trois arguments:– le contexte: la genèse épistémologique des nouvelles sciences;– les fondements: les axiomatiques de la modélisation complexe;– le corpus: un état de l’art succinct (une architecture des concepts) de la systémique tel qu’on peut le dresser à la fin des années quatre-vingt.La genèse épistémologique des nouvelles sciencesLa science des systèmes ne surgit pas vers 1975 telle Athéna, armée de pied en cap. Elle est héritière d’une riche lignée scientifique, lignée dont la réputation fut souvent affaiblie, de 1750 à 1950, par l’éclat dont bénéficia alors la lignée cousine de l’analytique et la mécanique: l’exceptionnelle aptitude de la mécanique à simultanément rendre compte (modéliser) et rendre raison (la mécanique rationnelle) des phénomènes inanimés et parfois même, semblait-il, de tous les phénomènes naturels tient sans doute à sa fondation sur des prémisses épistémologiques et méthodologiques alors peu contestées, établies par Descartes, Galilée et Newton. Longtemps la recherche scientifique délaissa d’autres hypothèses ou d’autres «discours de la méthode» tenus pour moins immédiatement assurés. Il nous est aisé aujourd’hui de nous introduire à «la méthode de Léonard de Vinci» et de la tenir pour fort systémique avant la lettre... mais Les Cahiers (1480-1519) ne furent accessibles qu’à partir de la fin du XIXe siècle. Comme nous qualifierons a posteriori de systémique la Méthode des études de notre temps que proposait en 1708 un obscur professeur de rhétorique de l’université de Naples, Gian Battista Vico, ouvrage écrit alors pour proposer une alternative à l’analytique cartésienne qui se propageait en Occident avec l’efficacité que l’on sait. Vinci et Vico soulignaient, eux, leur dette à l’égard d’Archimède, alors que le systémicien contemporain soulignera la pertinence, hélas encore masquée par une bien pauvre diffusion, du Traité de tectologie, science universelle de l’organisation , publié en 1913 par un étonnant chercheur russe Alexandre Bogdanov, ou celle, plus surprenante encore par son origine, des Cahiers que Paul Valéry rédigea de 1894 à sa mort en 1945 (et qui ne nous sont aisément accessibles que depuis 1975). Ne faut-il pas aussi citer Goethe ou Hegel, remonter à Héraclite, s’arrêter à Vauban, ou à l’étonnant article «Système» de l’Encyclopédie de Diderot-d’Alembert? De telles explorations commencent heureusement à se développer, confortant l’argument et sa nécessité: l’entreprise de détermination et de justification de quelques méthodes guidant la conception et la construction de représentations formelles (des modèles) de phénomènes projets ou objets que l’on perçoit complexes, complexes et donc non réductibles a priori à une hypothétique explication; cette entreprise appartient pleinement à l’histoire et à l’actualité de la recherche scientifique: si le concept de science des systèmes nous semble aujourd’hui nouveau, il exprime une discipline autonome riche d’une longue et hésitante histoire; la rhétorique, souvent, fut porteuse de ce projet dans les académies médiévales, suivie au XVIIIe siècle de la mécanique, avant que celle-ci ne se confine dans la mécanique rationnelle et ne se redéploie dans la mécanique statistique.La fécondation de la science des systèmes, telle que nous la connaissons aujourd’hui par la science des mécanismes, doit retenir l’attention; si l’ambition explicatrice de la mécanique classique fonda la doctrine que l’on peut a posteriori tenir pour le paradigme de la boîte transparente (le modèle descriptif – le mécanisme d’horlogerie – doit être le modèle explicatif: la loi déterminant le comportement), les vertus heuristiques de la science des mécanismes, familières déjà aux mécaniciens grecs, incitèrent aux pratiques modélisatrices que nous entendons aujourd’hui par le paradigme de la boîte noire; il importe peut-être davantage de savoir ce que fait et ce que pourrait faire tel mécanisme que de savoir comment il le fait: cette hypothétique horlogerie interne est peut-être contingente; que perd-on à l’ignorer, dans sa boîte noire, dès lors que l’on dispose de quelque modèle qui permet de simuler son comportement avec assez de fidélité: qu’elle soit différentielle (les méthodes d’études cinématiques pas-à-pas) ou stochastique (les modèles thermodynamiques), la science des mécanismes propose une différenciation entre le modèle de la fonction et celui de l’organe (différenciation que réprouvent bien sûr les tenants d’une pure mécanique rationnelle), sur laquelle s’est fondée la systémique, et de laquelle elle tire son pouvoir potentiel; l’homomorphie fonctionnelle ouvre à la modélisation un champ d’exploration infiniment plus vaste que celui qu’autorisent les rares isomorphies organiques, miracles isolés des grandes lois de la physique, selon René Thom.La reconnaissance du statut de la boîte noire en tant que concept instrumental de modélisation scientifique devra pourtant attendre l’apparition, en 1948, d’une discipline scientifique qui mérite d’être reconnue dans son originalité innovatrice à plusieurs titres: la cybernétique, telle que nous la connaissons aujourd’hui (on lui connaît plusieurs ancêtres oubliés, de Vinci à Watt, et des chercheurs du XIXe siècle parfois éminents, tels qu’Ampère), naît d’un curieux traité d’un éminent mathématicien, Norbert Wiener, enseignant dans une université d’ingénierie américaine prestigieuse, le M.I.T. – traité qu’il intitule Cybernetics or Control and Communication in the Animal and the Machine (1948): la cybernétique ou la commande et la communication dans les systèmes vivants (l’animal) et les systèmes artificiels (la machine). L’argument de la définition d’une discipline ayant pour objet l’étude conjointe des processus de communication et de commande était (épistémologiquement) fort nouveau, comme l’était celui de ne pas disjoindre a priori l’étude de ces processus dans les systèmes naturels et dans les systèmes artificiels (on doit sans doute au neurophysiologiste Warren S. McCulloch et au logicien Pitt les premières explorations de cette hypothèse à partir de 1942). On postulait une isomorphie fonctionnelle, que l’on espérait peut-être organique, qui allait s’avérer féconde: de l’animal-machine de Descartes à l’homme-machine de Julien Offroy de La Mettrie, ces premiers neuro-connexionnistes pouvaient se référer à une indiscutable tradition scientifique. Mais Wiener s’en différenciait explicitement en fondant cette nouvelle science sur quelques postulats épistémologiques explicites que la plupart des institutions scientifiques tiennent encore pour révolutionnaires: en particulier celui de la légitimité de l’interprétation téléologique. On verra l’importance, pour la légitimation du statut épistémologique de la systémique, de ce postulat téléologique: depuis Descartes, la mécanique analytique s’était fondée sur le postulat de la causalité (tout effet est explicable ou au moins représentable par une cause... ou une longue chaîne de raisons toutes simples). En proposant, dès 1943, dans un article cosigné avec un éminent biologiste, A. Rosenblueth, et un jeune ingénieur électronicien, J. Bigelow, intitulé «Behavior, Purpose and Teleology» (comportement, intention et téléologie) de reconnaître la légitimité scientifique de l’interprétation téléologique a priori du comportement d’un système, Wiener autorisait une voie alternative à toute entreprise de modélisation scientifique; au lieu de chercher d’abord les causes (mécaniques), le modélisateur était invité à s’interroger d’abord sur les finalités ou les projets du système étudié: en mettant en correspondance intelligible les comportements du système avec sa ou ses finalités, le modèle permet de le décrire effectivement, par simulation d’une boîte noire, par isomorphie fonctionnelle. L’ignorance des causes mécaniques ne constitue plus l’obstacle infranchissable à la modélisation intelligible du phénomène considéré. Mieux encore, la cybernétique, prenant argument de ce nouveau précepte de la modélisation, va introduire un concept universel permettant d’instrumenter pratiquement la modélisation de tout comportement téléologique: le concept de feed-back informationnel (cf. figure) – les tentatives de francisation de ce mot ne semblent pas encore satisfaisantes: rétroaction en particulier est impropre car le feed-back ne constitue pas en lui-même une action, il désigne une relation informationnelle rétro-mettante. Même là où une analyse organique fine ne permet pas de repérer l’existence tangible d’un feed-back, l’hypothèse d’une fonction de feed-back permettant de mettre en correspondance le comportement effectif instantané d’un système et ses objectifs présumés s’avère bien souvent opérationnelle et interprétable. En associant les concepts de boîte noire fonctionnelle (un comportement dans un environnement) et de feed-back intentionnel (un comportement par rapport à une finalité), puis de sous-système de commande finalisé (en anglais control system ), la cybernétique allait donner vingt ans plus tard à la science des systèmes un instrument de modélisation puissant, économique, intelligible... et parfois dangereux, dès lors qu’on est tenté de le manipuler naïvement, en ignorant la complexité des environnements et l’irréversibilité temporelle des phénomènes.Si la rhétorique (et sa méthode privilégiée de l’inventio : «Qui? Quoi? Où? Pourquoi? Quand? Comment?») et la mécanique (différentielle et statistique) peuvent être tenues pour les grands-parents de la science des systèmes contemporaine, la cybernétique peut être prise pour son père... père lui-même complexe, car conscient de certaines au moins de ses limites conceptuelles – en particulier son hypothèse forte de fermeture des modèles, aussi évidemment ouverts dans leurs environnements que soient les phénomènes modélisés. Elle parvint vers 1955 à se différencier en une cybernétique de premier ordre (la cybernétique classique, qui propose des modèles fermés de gestion cinématique de flux avec feed-backs informationnels régulateurs) et une cybernétique de deuxième ordre (cela sous l’influence de ses deux autres théoriciens, Ross Ashby et surtout H. von Foerster): une cybernétique qui privilégie la régulation des transformations morphologiques internes du système en proposant des modèles de gestion dynamique sur lesquels se fonderont les théories formalisées de l’auto-organisation (le premier article fondateur de cette théorie de la cybernétique des systèmes auto-organisateurs paraît en 1959 sous la plume de H. von Foerster: «On Self Organizing Systems and Their Environments»). Aux deux grandes branches de la mécanique, la cinématique (différentielle) et la (thermo)-dynamique, la cybernétique propose ainsi d’associer un développement spécifique de l’étude de leurs régulations (cybernétique de premier ordre) et de leurs équilibrations (cybernétique de deuxième ordre). L’expérience modélisatrice qui s’accumulera ainsi entre 1945 et 1975 dans les domaines très variés qu’occupe souvent précipitamment la cybernétique (ingénierie, biologie, électronique, économie, psychologie...) va constituer un irremplaçable terreau au sein duquel se développera l’entreprise originale de conceptualisation disciplinaire que constitue aujourd’hui la systémique. Cette émergence avait été pressentie dès 1947 par Warren Weaver dans une sorte de manifeste épistémologique intitulé «Science and Complexity»: une invitation pressante aux communautés scientifiques à sortir de leurs conforts disciplinaires et à élaborer, à l’intention des sociétés modernes, conscientes désormais de leurs inextricables et multiples enchevêtrements, les connaissances et les concepts leur permettant d’appréhender la complexité essentielle (Gaston Bachelard, 1938) de leurs actions. Weaver proposait deux exemples de nouvelles disciplines illustrant cette attitude: la recherche opérationnelle, que la complexité des décisions militaires en situation de conflit planétaire venait de révéler, et la naissante informatique, l’étude des machines à calculer électroniques, dont l’invention avait été rendue quasi inévitable tant pour l’automatisation des manœuvres d’artillerie (J. Bigelow) que par le décryptage des messages codés (A. Turing) et l’accélération des très grands calculs que demandaient les physiciens pour la maîtrise de l’énergie atomique (John von Neuman). Aucune des disciplines scientifiques alors connues ne donnait a priori l’expertise indispensable aux recherches dans ces domaines somme toute familiers aux hommes d’action... et, dans l’ambiance des années 1945, plus particulièrement aux hommes de guerre (les attitudes opposées des deux grands mathématiciens alors engagés en première ligne sur ces nouvelles frontières de la recherche scientifique, Wiener pour la cybernétique et von Neuman pour l’informatique, se comprendront en référence à cet enjeu). Importe ici pour notre propos l’attention que le même Weaver porta, en 1949, à la théorie que venait de publier un ingénieur mathématicien des Bell Laboratories, Claude E. Shannon, sous le titre La Théorie mathématique de la communication . Pratiquement indépendante dans sa genèse de la théorie de la commande et de la communication que venait d’élaborer Wiener, elle allait pourtant s’y accoupler spontanément, lui apportant un formalisme efficace rendant compte de la transmission des signaux informationnels (et donc des feed-backs sur lesquels se construisait l’essentiel du formalisme cybernétique); l’intérêt de Weaver pour la théorie de Shannon, dont il pressentit sur-le-champ le caractère épistémologiquement provocateur (quelle discipline pourra héberger cette théorie?), fut tel qu’il rédigea une importante introduction qui suggérait des voies de développement alors très nouvelles (la théorie des trois niveaux de l’information: le technique, le sémantique et le pragmatique, y est proposée pour la première fois); ce texte fut aussitôt associé à celui de Shannon, si bien que, depuis 1949, on ne connaît qu’un ouvrage: La Théorie mathématique de la communication de Shannon et Weaver. Le couplage de la théorie de Wiener avec celle de Shannon-Weaver, publiées quasi simultanément, nous apparaît aujourd’hui essentiel et inévitable, manifestant la pertinence épistémologique autant que technologique de l’intuition de Weaver. Ce couplage fut pourtant longtemps, en pratique, une juxtaposition de bon voisinage dont la synergie tardait à se manifester: H. Quastler puis H. von Foerster furent sans doute les premiers à en proposer une illustration convaincante avec l’élaboration, en 1959, de la première théorie des systèmes auto-organisants, qui ne fut développée de façon décisive qu’en 1972 par le biophysicien français H. Atlan, dans L’Organisation biologique et la théorie de l’information . La difficulté tient sans doute au fait que deux disciplines (la science de la commande régulatrice et informée et la science de la transmission du signal) n’avaient pas encore reconnu les limites de leur propre assise épistémologique: chacune tenait donc pour essentielle la définition de sa propre cohérence interne, ce qui ne l’incitait pas à rechercher l’ouverture et les risques de déséquilibrage correspondant. Il faudra précisément que se conceptualise assez la science des systèmes pour que soit disponible un socle épistémologique robuste qui permette la circulation sans danger d’une théorie à l’autre!Si la systémique doit tenir la cybernétique (renforcée de la théorie shannonienne de la communication) comme son père, elle ne peut être entendue, dans sa nécessaire complexité, qu’après qu’elle eut aussi reconnu – métaphoriquement – sa mère: l’expérience modélisatrice des systèmes vivants et des systèmes artificiels apportée par la cybernétique révèle de multiples limites dès lors qu’on veut appréhender sans la mutiler a priori la complexité des phénomènes que l’esprit humain souhaite modéliser et interpréter.La cybernétique appelait en quelque sorte un croisement avec une expérience modélisatrice de la complexité issue d’une autre lignée, plus enracinée dans les pratiques des sciences de l’homme et de la société que dans celles des sciences de la vie et des sciences de l’ingénierie, plus familière aussi aux cultures scientifiques européennes qu’à celles de l’Amérique du Nord, plus difficile encore à présenter par une seule enseigne, tant s’y enchevêtrent des projets épistémologiques et idéologiques. Si le paradigme tectologique tel qu’il fut introduit en 1913 par Bogdanov s’était popularisé aussi universellement que le paradigme cybernétique, la tectologie pourrait être fort légitimement le porte-étendard de cette confédération d’expériences de la modélisation: c’est bien le concept d’organisation (dans la plénitude et la complexité dont a su le doter Edgar Morin dès «La Nature de la nature», premier livre de La Méthode , 1977) qui articule sans les mutiler les leçons des expériences modélisatrices de l’anthropologie, de la psychosociologie, de la psychologie cognitive, de la linguistique et de l’économique – cela dans des termes tels que l’on puisse non seulement passer de l’une à l’autre, mais aussi et surtout, des sciences de l’homme et de la société aux sciences de la vie, de la matière, de l’espace et de l’ingénierie. C’est sans doute le structuralisme, dans les formulations sur lesquelles il s’est fondé (des premiers textes de Claude Lévi-Strauss en 1948 au célèbre «Que sais-je?» de Jean Piaget), qui synthétise de façon assez généralement acceptée ce deuxième paradigme modélisateur auquel la science des systèmes contemporaine se réfère aussi nécessairement qu’au paradigme cybernétique.Le paradigme structuraliste fonde l’expérience modélisatrice sur un projet délibérément complexifiant. En effet, au lieu de réduire l’étude d’un système à celle de l’hypothétique et invariante structure qui assurerait et expliquerait ses fonctionnements et ses comportements synchroniques (les fonctionnalismes) ou à la théorisation des transformations morphologiques internes proposant d’exclusives interprétations diachroniques (les historicismes), le structuralisme, entendu comme un idéal commun d’intelligibilité (Piaget), se propose d’en enrichir l’étude par la conjonction délibérée et permanente de ces deux problématiques analytiques habituellement antagonistes: l’étude du fonctionnement d’un système est indissociable de celle de ses transformations, et réciproquement; c’est en fonctionnant (ou en agissant) qu’il se transforme (ou apprend) et c’est en se transformant (ou en apprenant) qu’il fonctionne (ou qu’il agit). Cette problématique délibérément complexifiante allait quasi nécessairement conduire le structuralisme à inventer la notion de système dans l’acception de cette unitas multiplexe (Morin, 1977) que lui attribue désormais la science des systèmes. La célèbre définition finale donnée en 1968 par Piaget: «Une structure est un système de transformation autonome», en rend explicitement compte. Le sociologue Raymond Boudon complète cette définition la même année en soulignant l’importance de la dimension téléologique de la notion de système que le texte de Piaget semble souvent éluder. Au terme de l’épopée du structuralisme, on voit émerger la notion de système. L’essai de Boudon intitulé À quoi sert la notion de structure? , publié également en 1968, propose pratiquement la même interprétation: au bout de l’exploration de la notion de structure, on voit s’étioler l’épistémologie un peu simple par laquelle on l’associait à la puissance modélisatrice de la mécanique galiléenne indifférente aux interprétations téléologiques, et on observe «que la plupart des révolutions ou innovations enregistrées par les sciences humaines dans les dernières décennies ont été caractérisées par la découverte de méthodes permettant d’analyser les systèmes en tant que systèmes»; l’objet même de la science des systèmes était ainsi campé par le structuralisme à son apogée.La conjonction des deux paradigmes fondateurs de la science des systèmes, la cybernétique et le structuralisme (paradigmes dont l’ambition interdisciplinaire, voire transdisciplinaire, était explicite depuis leurs premières formulations), ne se développa pas pourtant avec la spontanéité à laquelle on pouvait s’attendre. Ces riches expériences modélisatrices que l’une et l’autre développaient explicitement depuis le début des années cinquante dans toutes les disciplines, dures et douces, se construisaient sur des socles épistémologiques élaborés par et pour ces disciplines anciennes, et non par et pour ces nouveaux paradigmes. À la demande de Piaget, Seymour Papert tenta un premier exposé de l’«Épistémologie de la cybernétique», en 1968, pour l’encyclopédie Logique et connaissance scientifique ; ce premier essai révéla surtout la difficulté de l’entreprise et l’immaturité compréhensible de ces jeunes nouvelles sciences.Mais cette immaturité n’était pas initialement perçue de façon sensible par les communautés scientifiques. Après tout, l’épistémologie elle-même se déclarait en crise! Les néo-positivistes du Cercle de Vienne reconsidéraient certes l’oppressant héritage d’Auguste Comte, mais ils proposaient des écoles parfois furieusement antagonistes; et déjà les post-néo-positivistes se déployaient, indifférents eux aussi aux conditions de scientificité des énoncés produits par ces nouvelles sciences préconisant de nouvelles méthodes. Dans ce contexte, au sein de deux creusets – l’un d’inspiration positiviste, l’autre constructiviste –, aurait pu, dès les premières années, vers 1955, se constituer effectivement une science des systèmes autonome, aisément acceptable par les académies, mais ils furent inhibés à leur insu, l’un par son impérialisme épistémologique et l’autre par sa modestie instrumentaliste. Leur évocation est ici nécessaire pour une bonne intelligence de la systémique contemporaine, qui fut sans doute conçue avant d’être voulue.Le creuset de la General System Theory (connue en France sous le nom de théorie générale des systèmes, T.G.S.) constitue par lui-même un événement remarquable dans l’histoire des sciences par les conditions de sa constitution et la permanence de son rayonnement pendant trente ans. La Société pour la recherche sur les systèmes en général (S.G.S.R.) est constituée en Amérique du Nord en 1955 par un petit noyau de chercheurs déjà éminents (le fondateur, Ludwig von Bertalanffy, biologiste théoricien, auquel s’associaient l’économiste K. Boulding, le biomathématicien A. Rapoport et le physiologiste R. Gérard), convaincus du caractère scientifique universel et unificateur du concept de système en général; le recueil par lequel von Bertalanffy rassembla ses principaux articles et qui ne parut qu’en 1968 s’ouvre par une déclaration catégorique: systems every where – les systèmes sont partout! Il doit donc être possible de théoriser assez la notion de système, afin de disposer, presque par surcroît, d’une théorie universelle de l’Univers: folle ambition, sans doute, involontaire impérialisme épistémologique aussi; il reste que, malgré l’ostensible indifférence des institutions scientifiques, légitimement dubitatives devant cette immense intreprise, l’école de la théorie générale des systèmes va se développer et se propager de par le monde entre 1955 et 1975, suscitant tour à tour l’enthousiasme de théologiens et de mystiques, puis celui des psychologues, des sociologues et des politiques. À partir de 1968, la théorie générale des systèmes (au demeurant piètrement théorisée, il s’agit plutôt d’un patchwork de déclarations d’intention soulignant toutes la nécessité de ne pas réduire la complexité des phénomènes au simplisme des modèles analytiques) devint la matrice d’une sorte de méthodologie de l’action encore largement diffusée sous le nom de l’approche-système: «la science de l’ère de la conquête de l’espace, qui révolutionne la gestion et la planification de l’action des gouvernements, des entreprises, des industries et des humains» (extrait de la page de couverture du livre de poche rédigé par C. W. Churchman en 1968). Les développements de la recherche opérationnelle (C. W. Churchman, R. L. Ackoff, S. Beer), de la théorie de la commande (Control Theory ), de la dynamique des systèmes (J. W. Forrester), ceux des sciences du management et ceux de la bio-neuro-cybernétique constitueront un premier creuset d’expériences au sein duquel on reconnaîtra parfois les traces de la praxéologie (T. Kotarbinski, 1925) catalysant les applications de la cybernétique dans l’étude de la conduite des organisations en environnement fermé. La progressive émergence de la biologie théorique (de L. von Bertalanffy en Amérique à P. Delattre en France) peut également être reconnue au sein de cette phase de maturation directe d’une cybernétique implicitement positiviste.L’autre creuset, également autonome, au sein duquel germèrent à partir de 1955 nombre des concepts qu’assimile aujourd’hui la science des systèmes, est celui des complexes renouvellements que connaît la psychologie depuis trente ans: plus spécifiquement, d’une part, certains développements de la psychologie cognitive, aux frontières notamment de l’intelligence artificielle (1956), puis des sciences de la cognition (1975) [on peut caractériser ce courant par le nom de Herbert A. Simon, qui a contribué de façon décisive à sa rapide maturation], et, d’autre part, certains développements de la psychologie sociale, aux frontières de la pragmatique de la communication, courant qui se présente volontiers aujourd’hui sous le label de la psychothérapie systémique (on peut lui associer le nom de son initiateur le plus légitimement réputé, Gregory Bateson, et celui de l’école qui se constitua autour de lui à Palo Alto).C’est en étudiant les processus d’élaboration des décisions dans les organisations sociales que l’économiste Herbert A. Simon dégagea, à partir de 1943, le paradigme du système de traitement de l’information (qui deviendra le paradigme du système d’action intelligente ou le paradigme de la rationalité limitée). Au lieu de privilégier a priori l’étude de la boucle informationnelle de régulation du comportement de l’organisation (ainsi que le propose alors le paradigme cybernétique), Simon cherche à identifier les processus cognitifs par lesquels un système perçoit les problèmes qu’il se propose de considérer, puis conçoit les solutions alternatives qu’il peut envisager pour les résoudre. Gaston Bachelard certes avait vu dès 1938, dans La Formation de l’esprit scientifique , que «les problèmes ne se posent pas d’eux-mêmes; c’est précisément ce sens du problème qui donne la marque du véritable esprit scientifique». Et, avant lui, Paul Valéry avait médité, inlassablement, sur la méthode par laquelle l’esprit humain non seulement diagnostique un problème à résoudre, mais aussi conçoit, par de multiples itinéraires relevant autant de la métis (la ruse) que de la logique formelle, les solutions envisageables, plausibles, acceptables. Mais ces réflexions ne se propagèrent que lentement dans les communautés scientifiques; on doit à H. A. Simon de les avoir reformulées en enrichissant sans cesse leur contexte. Ce professeur d’économie et de sciences politiques devint professeur de sciences de gestion et d’informatique, puis de psychologie et d’intelligence artificielle, puis de sciences de la cognition et d’épistémologie expérimentale, tout en réexplorant la même interrogation: la modélisation des processus d’élaboration des décisions. Qu’il ait, pour ce faire, élaboré ou re-élaboré nombre des fondements et des axiomatiques de la science des systèmes telle que nous la connaissons aujourd’hui ne nous surprend guère a posteriori. Il reste qu’il lui apporta la problématique (et les formalismes computationnels de la modélisation des processus complexes de décision), qu’ignoraient ou que délaissaient le paradigme cybernétique et, dans une moindre mesure, le paradigme structuraliste. Il en prit acte en autorisant ses traducteurs japonais ou français à traduire son ouvrage The Sciences of the Artificial par La Science des systèmes . C’est à l’école d’Herbert Simon que l’on doit, pour une large part, une discussion épistémologique réfléchie des théories de la computation et de la cognition comme de la science informatique, discussion qui fait actuellement défaut encore à la cybernétique et aux théories qu’elle supporte.L’apport du paradigme de la pragmatique des communications à la science des systèmes est sans doute plus directement issu du paradigme cybernétique (W. S. McCulloch, W. Pitt, N. Wiener, R. Ashby, H. von Foerster...). Mais sa problématique s’en différencie dès sa formation, au début des années cinquante, si bien que sa contribution à la systémique contemporaine s’avère, en pratique, originale et remarquable. Gregory Bateson est un ethnologue-anthropologue venu à la psychiatrie vers 1949, après avoir découvert, lors des conférences de la Josiah Macy Jr. Foundation, à partir de 1942, le paradigme cybernétique et surtout le concept du feed-back communicationnel. On lui doit (ainsi qu’à l’équipe de psychiatres qui se développe à Palo Alto à partir de 1950) une conceptualisation de la complexité des processus de communication sociale, ordonnée autour de la notion de niveaux (transmettre, niveau 1, et savoir ce que l’on transmet, niveau 2), théorie qui va s’avérer d’une effective fécondité, en particulier en psychothérapie. Comme H. Simon, G. Bateson va percevoir intensément la nécessité d’une réflexion épistémologique originale permettant de légitimer les énoncés à risques (le psychothérapeute a-t-il le droit de se tromper?) que dégage la théorie de la pragmatique et de la communication sociale. La thèse du double-bind (ou du double lien), en particulier, va susciter une réflexion sur la contingence de la logique déductive qui n’a pas fini d’alimenter la construction axiomatique de la systémique (une communication avec double-bind est une communication qui, logiquement, ignore que toute communication sociale est complexe et se développe à deux niveaux d’entendement au moins; ainsi, la mère qui ordonne à son enfant «Sois spontané» peut susciter un double-bind déséquilibrant si celui-ci ne perçoit pas la métacommunication implicite: en obéissant à la lettre, il désobéit à l’esprit... puisqu’il cesse d’être spontané! Paradoxe infernal, générateur de troubles schizophréniques dont la thérapie passe peut-être par l’intelligence de ces communications paradoxales et non plus par la psychanalyse ou la chimiothérapie). Comment, dès lors, modéliser cette complexe communication qui est à la fois action d’échanger et résultat actif de cette action productrice d’elle-même, intelligible autoréférentiellement? Les épistémologies post-néo-positivistes auxquelles s’étaient référées les entreprises de modélisation des sciences classiques et même, quoique implicitement, les théories de l’information (Claude Shannon), la cybernétique (Norbert Wiener), la théorie générale des systèmes (Ludwig von Bertalanffy) et la plupart des disciplines des sciences sociales familières que renouvelait le paradigme structuraliste dans les années soixante, ces épistémologies ne supportaient pas aisément les énoncés récursifs et les conjonctions opérateur-opérande, que produisaient de plus en plus volontiers, mais apparemment à la marge, ces nouvelles sciences en passe de s’auto-organiser au sein de l’émergente science des systèmes.Cette nécessaire mise en perspective historique de la progressive constitution (achevée pour l’essentiel entre 1975 et 1980) de la science des systèmes devrait être complétée par une présentation conjointe de l’émergence des nouvelles sciences dont la science des systèmes semble être la cause et le prétexte: on ne peut ici que renvoyer aux articles qui présentent et commentent les sciences de la décision, les sciences de la communication, les sciences de l’information, les sciences de la computation, les sciences de la cognition, les sciences de l’éducation, les sciences de gestion, les sciences de l’organisation, les sciences de l’ingénierie... Autant de disciplines apparemment nouvelles (pour un positiviste au moins), sur les frontons de nos académies, qui demandent à la science des systèmes de jalonner pour elles le socle épistémologique à partir duquel elles produiront et légitimeront leurs énoncés nouveaux: de nouvelles connaissances par de nouvelles représentations.Les fondements épistémologiques: l’axiomatique de la science des systèmesDès lors que la systémique se fondait sur un projet méthodologique général, on pouvait présumer qu’elle s’adapterait malaisément au référentiel épistémologique héritier du positivisme d’Auguste Comte (lui-même établi sur l’axiomatique analytique cartésienne: indépendance observateur-observé, réductionnisme réversible, déterminisme, fermeture locale) sur lequel se construisaient depuis un siècle toutes les disciplines classiques, de l’astronomie à la sociologie, toutes fondées sur la connaissance de quelque objet présumé prédéfini et stable.Il importe donc de réactiver une attention exigeante à l’explicitation du référentiel épistémologique généralement acceptable sur lequel les nouvelles sciences en général et la science des systèmes en particulier assureront leurs énoncés enseignables. Entreprise moins révolutionnaire qu’on pourrait le penser, dans la mesure où le mouvement des sciences dites classiques appelle, lui aussi, quelques sévères remises en question des discours qui avaient dominé la recherche scientifique depuis un siècle; que l’on pense aux évolutions de la physique quantique, de l’immunologie ou de la linguistique! Mais aussi dans la mesure où l’épistémologie ne s’était jamais laissée réduire à un discours impérialiste et monolithique, même si les institutions scientifiques gardiennes des traditions avaient pu, parfois, le laisser croire. On a évoqué une ancestrale dialectique entre une épistémologie fondant les sciences d’analyse (concernant un objet présumé préexistant à sa connaissance) et une autre fondant les sciences de conception (s’appuyant sur le projet de l’observateur-concepteur-inventeur).Le XXe siècle a connu, en particulier en France, une vivace résurgence de ces épistémologies, que caractérise la formule célèbre de Bachelard dans La Formation de l’esprit scientifique (1938): «Rien n’est donné, tout est construit...» y compris donc la connaissance, non plus découverte objective , mais représentation ou construction projective .On doit sans doute à Jean Piaget la première reformulation complète d’un édifice épistémologique que l’on puisse présenter comme une alternative légitime au post-positivisme institutionnel (par son encyclopédie Logique et connaissance scientifique ); l’épistémologie constructiviste, fondée sur le projet résultant de l’interaction intentionnelle d’un sujet sur un objet, est une conception de la connaissance comprise comme un processus actif avant de l’être comme un résultat fini: «la connaissance ne saurait être conçue comme prédéterminée, ni dans les structures internes du sujet, puisqu’elles résultent d’une construction effective et continue, ni dans les caractères préexistants de l’objet, puisqu’ils ne sont connus que grâce à la médiation nécessaire de ces structures», assure Piaget en présentant l’épistémologie génétique (formule qu’il préfère à l’épistémologie constructiviste et par laquelle il peut exprimer les spécificités de sa propre pensée épistémologique). Dès lors qu’elle disposait d’une telle référence qui lui assure un socle solide et différencié, entre les épistémologies positivistes et idéalistes, au sein desquelles, par hypothèse, elle ne pouvait que s’étioler, la science des systèmes allait pouvoir rapidement élaborer son autonomie et ses spécificités disciplinaires: elle n’était plus condamnée au laxisme de la théorie générale des systèmes ou aux hypothèses restrictives de fermeture qu’imposait la théorie du contrôle cybernétique. On doit à Edgar Morin d’avoir perçu avec une rare lucidité ces limites, dès 1972-1973 – «la théorie générale des systèmes a omis de creuser son propre fondement; le travail préliminaire reste à faire» –, puis d’avoir entrepris une exceptionnelle synthèse épistémologique et méthodologique qui permet aujourd’hui de présenter, d’enseigner et de développer une science des méthodes de modélisation systémique de la complexité: c’est en prévilégiant l’intelligence de la complexité dans la permanente entreprise de représentation des connaissances (par laquelle Jean Ladrière propose de définir l’activité scientifique) qu’Edgar Morin va élaborer à la fois la méthode de représentation systémique (il parlera de méthode de complexité) et le paradigme épistémologique qui la fonde (la méthode de la méthode ou, en reprenant la formule qu’a donnée Paul Valéry en 1944, l’inséparabilité d’une connaissance de la connaissance et d’une représentation du fonctionnement total). On doit ici se limiter à une interprétation succincte de cette exceptionnelle entreprise qu’est La Méthode (dont le premier tome parut en 1977) par ce qui semble constituer les axiomes sur lesquels se fonde le projet de la science des systèmes: les axiomes des méthodes de modélisation systémique des complexités perçues. L’exercice peut s’avérer utile dans la mesure où, pour la plupart de nos contemporains, l’axiomatique qui fonde les raisonnements de représentation est habituellement implicite et oubliée; on se réfère en général aux quatre préceptes du Discours de la méthode de René Descartes (1637) ou aux onze axiomes de la Logique de Port-Royal (1662) sans s’assurer de leur pertinence pour nos discours contemporains: les malentendus et les confusions sont dès lors prévisibles, lorsqu’on se propose de développer tel modèle présumé systémique en se référant non pas aux axiomes qui le justifient, mais à d’autres qui l’ignorent ou parfois l’interdisent! On observait fréquemment ce type de tension dans les années soixante-dix, dans les études dites d’analyses de systèmes; le label système ne modifiait en rien la méthode, qui se voulait analytique et se référait donc à une axiomatique réductionniste et causaliste classique: peut-être espérait-on, par quelque jeu alchimique des mots sur les idées, donner ainsi une teinture systémique à un modèle analytique. Ce ne fut sans doute jamais le cas, mais cela contribua souvent à dégrader la réputation de la systémique dans les formations d’ingénieurs, où elle devrait pourtant s’épanouir! Contingente, donc, autant que nécessaire, une axiomatique de la modélisation systémique doit être succinctement présentée ici: il n’importe pas qu’elle rallie durablement les suffrages de tous les systémiciens; elle doit en revanche leur rappeler l’exigence intellectuelle requise par tout projet modélisateur: par rapport à quels axiomes explicites?On pourrait sans doute les présenter dans la perspective de la grande tension paradigmatique que connut la science médiévale entre nominalistes et universalistes. On comprend mieux pourquoi aujourd’hui les institutions scientifiques et les académies ont encore tant de difficultés à entendre le discours systémique: aux canons du post-positivisme comme à ceux des universalistes, une science des méthodes de modélisation systémique n’a pas de mesure aisée de sa scientificité. En revanche, aux canons du constructivisme comme à celui des nominalistes, elle est sérieusement argumentée en tant que discipline scientifique, ce qu’on illustre en suggérant quelques axiomes possibles (et, à l’expérience, pertinents et de bonne économie cognitive) auxquels peut se référer une méthodologie systémique.Ces axiomes s’explicitent désormais par rapport à la théorie épistémologique de la connaissance qu’implique le principe même de la science des systèmes. L’étude des méthodes de modélisation ne requiert, en tant que telle, nulle prémisse ontologique: non seulement ces connaissances ne sont accessibles que par les représentations que nous en construisons, mais ces représentations sont elles-mêmes ces connaissances. Elles n’ont pas nécessairement de réalité ultime, elles ne reflètent pas nécessairement la vérité suprême, voilée et inaccessible. Ces connaissances productrices d’elles-mêmes (méthodes de modélisation) sont représentations, à la fois actives et passives (comme la représentation peut être théâtrale autant que diplomatique, suggère très heureusement Jean Ladrière dans son article «Représentation et connaissance» d’Encyclopædia Universalis ). Importe leur instrumentalité et leur opérationnalité, non leur unicité ou leur suprématie relative: il n’y a peut-être pas de meilleure méthode naturelle de modélisation (pas d’optimum donc... – ce qui dissuade de le chercher!). Sur cette forte prémisse s’élabore et se spécifie une épistémologie constructiviste, héritière sans doute du nominalisme, dont la reconnaissance est nécessaire si l’on veut rendre raison et rendre compte du statut scientifique de la systémique. Les tentatives, issues pour la plupart du courant de la théorie générale des systèmes, visant à proposer un statut ontologique à la notion de système entendue dans son universalité, tentatives dont l’entrepreneur le plus tenace est sans doute l’épistémologue Mario Bunge (A World of Systems , 1978), ont à ce jour toutes échoué: ou elles concluent que la science des systèmes n’est pas une discipline scientifique mais une philosophie (un systémisme concurrent du marxisme, de l’historicisme, du fonctionnalisme, de l’idéalisme... voire d’un taoïsme?), ou elles démontrent que le label systémique est illégitime puisqu’elles valident des méthodes de modélisations analytiques et réductrices, formalisées depuis un siècle par la très classique théorie des ensembles. Le biologiste Paul Weiss fut sans doute le premier à le rappeler avec insistance aux tenants trop précipités de la théorie générale des systèmes: un système n’est pas un ensemble; s’il l’était, pourquoi l’introduire, alors que la méthode ensembliste identitaire, selon le mot de C. Castoriadis, fait l’affaire? Sur un socle épistémologique constructiviste, on peut proposer en revanche quelques axiomes stables et communicables à partir desquels les énoncés de la science des systèmes pourront être peu à peu inférés, suscitant, par une récursion nécessaire, tels ajustements postérieurs, voire tel renouvellement de l’axiomatique initiale.Axiome 1 . La modélisation systémique est la conjonction de l’intention d’un modélisateur au moins et de l’environnement au sein duquel il est délibérément actif. On peut entendre cet axiome comme l’axiome cybernétique de la conjonction finalité-environnement, par contraste avec l’axiome de disjonction analytique des effets et des causes.Axiome 2 . «Au commencement était l’action» (Goethe), ou encore: «Nous ne représentons que des opérations, c’est-à-dire des actes» (Paul Valéry). Représenter, par conjonction, l’acte et non pas la chose, le processus et non pas le résultat; cet axiome fera de la boîte noire (ou du processeur symbolique), connu par ses fonctions présumées intentionnelles, l’instrument nécessaire de toute modélisation systémique: la «complexité essentielle» (Gaston Bachelard) devient alors a priori appréhendable sans être analysable; elle est complexe d’actions, de fonctionnements intentionnels enchevêtrés.Axiome 3 . Un complexe d’actions perçu complexe par un modélisateur peut être représenté intelligiblement par divers réseaux (alternatifs) d’interactions susceptibles d’une articulation en niveaux d’interactions de densités comparables.Axiome 4 . L’action perçue s’exerce dans un temps perçu irréversible (Ilya Prigogine). Tout modèle systémique d’un complexe porte donc en lui l’hypothèse de ses propres transformations: pas de cinématique sans dynamique associée, et réciproquement (René Thom).Axiome 5 . L’action doit pouvoir être productrice d’elle-même. Cet axiome de récursivité est très fort, et souvent tenu comme contre-intuitif par les logiciens classiques: ne récusent-ils pas l’axiome aristotélicien du tiers exclu (tertium non datur )? Faut-il pour autant s’interdire de considérer qu’une organisation est à la fois (conjonction) action d’organiser et résultat de cette action?Axiome 6 . Une action et un complexe d’actions doivent pouvoir produire leur propre représentation: l’action produit l’information qui la représente.Axiome 7 . L’information engendrée par un complexe d’actions doit pouvoir être engrammable (ou mémorisable) sous forme symbolique – et ces systèmes symboliques doivent pouvoir être manipulables (ou computables) au sein du complexe d’actions qui les forme.Axiome 8 . «Nous ne raisonnons que sur des modèles» (Paul Valéry) et «Nous ne communiquons que par des modèles» (Gregory Bateson). De ce fait, «en tant que concepteurs, ou que concepteurs de processus de conception, nous avons à être explicites, comme jamais nous n’avions eu à l’être auparavant, sur tout ce qui est en jeu dans la création d’une conception», donc dans la modélisation systémique (Herbert A. Simon).La présentation de ce corps d’axiomes n’est sans doute pas conforme aux règles d’une sobre axiomatique formelle. On montrerait qu’une telle construction sera possible au prix de l’élaboration de quelques nouveaux symboles permettant de dire économiquement le complexe ou l’ineffable. L’article «Système» de l’Encyclopédie de Diderot-d’Alembert illustrait et commentait cela par la présentation détaillée des systèmes de notations musicales, systèmes de symboles permettant de représenter effectivement, dans sa complexité sans cesse renouvelée, l’indicible et l’ineffable par excellence. Paul Valéry invitait déjà en 1943 à créer, pour penser «le fonctionnement du vivant-sentant-mouvant-pensant, des notations ad hoc qui feraient apparaître à la fois le “significatif” et le fonctionnel, et les caractères de conservation-transformation dans les substitutions mentales». De telles notations commencent au demeurant déjà à se développer: ainsi l’opérateur de récursion d’Edgar Morin:
, l’opérateur de distinction de G. Spencer Brown:
, l’opérateur d’autonomie de F. Varela
, les combinateurs de H. B. Curry, le multi-opérateur de J.-P. Desclée, comme, plus banalement, les symboles de conservation (tank) et de transformation (vanne) de la dynamique industrielle de J. Forrester... constituent des illustrations de cette nécessaire et délicate entreprise.
Une architecture des concepts de la systémiqueComme sans doute l’enseignement médiéval de la rhétorique, un enseignement contemporain de la systémique risque de dissuader l’étudiant si nul exercice pratique n’accompagne l’exposé. Et de tels exercices, pour être convaincants, devront porter sur la modélisation de complexes suffisamment riches pour rendre sensible la pertinence de la méthode de modélisation systémique. Il faut entreprendre aujourd’hui un tel enseignement afin de rendre visibles les termes des alternatives méthodologiques. Certes, nul ne sait enseigner la méthode analytique, mais, au moins dans les civilisations occidentales, cette carence était jusqu’ici rarement perçue puisque, à défaut de l’enseigner, les écoles invitaient à la pratiquer; présentée sans alternative, ses échecs ou ses insuffisances sont attribués aux maladresses de l’application (analyse à refaire, annote le correcteur) ou à l’extrême complication du domaine à modéliser: cent fois sur le métier, remettons notre ouvrage, en nous répétant que le génie est une longue patience!... Mais il ne suffit pas d’en appeler à la nécessité de pratiques différentes en évoquant les dégâts du progrès suscités par l’usage sans contrôle de l’analytique, en matière d’informatisation par exemple (que serait aujourd’hui la pratique informatique si on lui interdisait le concept d’analyse?). Une systémique qui se présenterait comme la nouvelle méthode seule capable de résoudre enfin les problèmes sur lesquels trébuche de plus en plus l’analytique contemporaine risquerait de s’exposer vite aux mêmes déboires. C’est cette appréhension de la systémique méthode-solution qui a incité Edgar Morin à parler de sciences et méthodes de la complexité plutôt que de science des systèmes. Il faut donc résister à la tentation d’un exposé des premières lois de la systémique dégagées depuis trente ans par la science des systèmes: ainsi, le principe d’équi-finalité de von Bertalanffy, le principe de la variété requise de R. Ashby, le principe homéostatique de W. Canon et N. Wiener, le principe de complexité par le bruit de H. von Foerster et H. Atlan, le principe du comportement moteur de l’évolution de J. Piaget, le principe du bon régulateur modèle de son environnement de J. Conant et R. Ashby, et quelques autres... De tels principes serviront certes souvent d’heuristiques de modélisation, commodes, mais leur pouvoir explicatif général demeure contestable; «mon système est de représenter et non d’expliquer», répétait P. Valéry. La justification de ces principes, préceptes et règles passe par la définition préalable du système de concepts que la science des systèmes se propose précisément d’architecturer et d’appareiller en une construction théorique: La Théorie du système général (J.-L. Le Moigne), tout en assurant l’infrastructure et les modes d’emploi de l’instrumentation. Le système de concepts ne peut être présenté ici autrement que par un énoncé succinct et linéaire; cette organisation de la systémique est auto-organisante pour le lecteur, invité à construire sa compréhension en la produisant lui-même: «C’est en modélisant systémiquement que l’on devient systémicien!»Le système général est le concept noyau: cet artefact conceptuel a vocation à représenter un complexe d’actions, complexe qui s’entend par les conjonctions de projets dans des environnements actifs (la conjonction cybernétique) et de fonctionnements synchroniques inséparables de leurs transformations diachroniques (la conjonction structuraliste). Ce complexe d’actions se représente par niveaux (opérations, informations, décisions), eux-mêmes agencés en réseaux changeants de processeurs multiples se transformant. L’organisation des niveaux permet d’exprimer les trois fonctions transitives et récursives dont la conjonction est constitutive d’un système: (se) maintenir et (se) relier et (se) produire = autorégulation-autoréférence-autopoïèse. L’autonomie du système organisation est ainsi identifiante et donc potentiellement finalisante (téléologie) et informante et donc mémorisante et cogitante (computation symbolique).Sur ce socle s’élabore une ingénierie de la représentation systémique en réponse au problème central de toute connaissance intentionnelle: celui de l’inséparabilité du sujet observant et de l’objet observé – une «nouvelle ingénierie» qui ne se réduit plus à la technologie et qui fait de l’acte cognitif de conception de modèles son projet instrumentable et enseignable (Intelligence des mécanismes et mécanismes de l’intelligence , 1986).Peut-on évaluer le degré de contingence de cette architecture de concepts? Chacun d’eux, y compris le concept de système général (que l’on rencontre à l’article «Système» de l’Encyclopédie de Diderot-d’Alembert de 1760), s’est développé initialement de façon autonome. Et, si la science des systèmes est plus que la somme des concepts qui la constituent, chacun d’eux est sans doute plus qu’une stricte fraction de la science des systèmes. Certes, chacun y est entendu par son potentiel d’instrumentation: la science des systèmes fonde un appareil de modélisation par homomorphie des concepts qui la fondent. La reconnaissance à fin de systémisation de ces concepts s’argumente précisément par une discussion épistémologique exigeante, obstinément rigoureuse (hostinato rigore , la devise de Léonard de Vinci). C’est ainsi que les concepts classiques de la modélisation analytique, tels qu’élément irréductible, ensemble de composition, structure, optimum, analyse, objectivité, déterminisme..., ne trouvent place que de façon asymptotique (par passage à la limite, lorsque le modèle est fermé) dans cette architecture de la systémique. D’autres concepts, qui ont souvent émergé récemment dans les pratiques modélisatrices, tels ceux de bifurcation (I. Prigogine), catastrophe (R. Thom), nég-entropie (L. Brilloin), connexionnisme (F. Varela), sous-ensembles flous (L. Zadeh), incertitude, jeu, coalition... y sont potentiellement construits par conjonctions locales des concepts évoqués. Que cette architecture soit appelée à connaître des développements par arborescences ou par bouclages n’affecte pourtant pas notre propos: l’identité et le projet de la systémique ne seront pas modifiés par ces mûrissements morphogénétiques probables. En revanche, il faut prendre le risque d’affirmer une certaine complétude conceptuelle; une légitime remise en question même partielle de la contribution de tel ou tel concept à l’architecture du système général s’avérerait en effet destructrice: en affectant l’architecture, elle en détruirait l’identité même et le projet. La contingence (que suggère l’histoire de toute science) n’affecte pas la cohérence délibérée, longuement et sérieusement mûrie: si la systémique illustre le passage d’un obstacle épistémologique (G. Bachelard), on lui accordera que ce franchissement a été consciemment construit (P. Valéry).Peut-on conclure sur un argument de légitimation de la systémique par ses résultats visibles? On a cru quelquefois que l’on pouvait argumenter la modélisation systémique par sa capacité à appréhender indifféremment le qualitatif et le quantitatif dans la construction des modèles – ce qui, dans un contexte restreint, s’avérera en effet exact. Exact mais ambigu si cela s’entend comme une sorte d’addition complémentaire, un peu comme l’on ajoute un modeste cours de psychologie sociale au cursus inchangé de physique et de chimie délivré par les écoles d’ingénieurs! S’il s’agit d’augmenter la taille d’un modèle établi par métaphore présumée organique (comme on ajoute des équations ou des variables dans un système d’équations afin, espère-t-on, d’améliorer la représentativité du modèle), autrement dit si la norme de référence pour évaluer les résultats de la modélisation systémique reste la modélisation analytique, on pourra peut-être faire illusion, mais on ne mettra guère en évidence la valeur ajoutée de la systémique. Que les modèles s’expriment par des symboles numériques ou non n’importe pas a priori. Ce qui importe, c’est qu’ils expriment, intelligiblement et effectivement, les projets complexes, enchevêtrés et parfois changeants du modélisateur (lui-même nécessaire et ambiguë conjonction du maître d’ouvrage et du maître d’œuvre), en des termes tels que, par simulation, le raisonnement puisse s’y exercer afin d’en anticiper les conséquences; la mesure du résultat visible peut se faire à l’aune de cette effectivité modélisatrice. Ce n’est plus la qualité du modèle fini qui vaut résultat, c’est la capacité à modéliser effectivement un projet complexe d’intervention. Et comme on ne met pas le vin nouveau dans les vieilles outres, il n’est pas surprenant que les outres neuves ne soient pas encore toutes fabriquées: si le chemin se construit en marchant, comment le montrer avant d’avoir marché? Pour estimer sa valeur, nous devons nous référer à ce que nous savons du marcheur et de sa méthode, le modélisateur et la méthode de modélisation. C’est pour cela qu’on consacre la plus large part de cette présentation de la science des systèmes à la discussion de son histoire et de la construction de ses fondements épistémologiques.
Encyclopédie Universelle. 2012.